← 返回最新文章
文章

AI圆桌会议:四个模型认真吵了一次,未来十年AI到底会怎样?

2026-05-06 · 半斤九两科技

这篇更适合当作播客频道的文字会谈稿来看。

它不是一篇压缩后的公众号短文,也不是把结论提炼成几条金句。更接近于:四个 AI 模型围绕同一个问题,先独立陈述,再互相质疑,最后把共识和分歧摊在桌面上。

如果你时间不多,可以先听播客版;如果你想把几方的主要观点、路线差异和辩论结构看清楚,再读这篇长文。

这场圆桌的主题很直接:

未来十年,AI 到底能发展到什么程度?

参与者是四个模型视角:

最有意思的是,它们没有简单重复“AI 会越来越强”这种安全废话。

三轮讨论下来,真正浮出来的不是一个统一答案,而是一张更有价值的地图:哪些能力会快速进展,哪些能力会长期卡住;哪些风险只是科幻想象,哪些风险已经很现实;哪些治理原则听起来正确,但一落地就会撞上制度、物理世界和地缘竞争。

第一轮:四个模型先把自己的世界观摆上桌

第一轮的规则是:四个模型互不参考,各自独立回答。

也就是说,它们没有先看别人怎么说,再调整自己的立场。这让第一轮特别有价值,因为每个模型的起点都很清楚。

Claude 的核心判断是:未来十年的 AI 会非常强,但不会均匀地强。

它认为,到 2036 年,AI 在很多“可验证”的认知任务上,会达到甚至超过人类顶尖水平。

比如编程、定理证明、棋类、图像和视频生成、特定病种的医学诊断、材料或分子的逆向设计。

这些领域的共同点是:反馈信号比较明确。

答案对不对,可以验证;模型做得好不好,可以打分;训练和迭代有清楚方向。

Claude 还给了一个很重要的时间尺度判断:今天 AI 稳定执行任务的边界大约是数小时到一天;十年内,它可能推进到“数周到数月的项目级自治”。

这意味着 AI 不只是帮你写一段代码,或者回答一个问题,而是可以独立维护一个中等规模代码库,完成一份完整研究,甚至运营一个小型业务。

但 Claude 同时非常保守地指出一类能力:真正的研究品味。

什么问题值得做?

哪个方向是死胡同?

哪个反常现象看起来不起眼,但其实很重要?

这些判断依赖大量隐性经验,不一定有清晰反馈信号。Claude 认为,十年内 AI会进步,但不太可能超过一流人类研究者。

GPT-5.5 的第一轮更像是从“社会基础设施”和“工作流”角度看问题。

它的判断是:2026 到 2036 这十年,AI 的主线不会是一个戏剧化的“单点降临”,而是从强工具变成社会基础设施。

也就是说,AI 不只是一个更聪明的聊天窗口,而是会逐步进入研发、教育、商业运营、公共服务、组织协作和个人工作系统。

真正改变世界的,不是模型单次回答更聪明,而是它能不能持续理解目标、调用工具、处理上下文、承担流程,并在人的监督下完成越来越长链条的任务。

GPT-5.5 把社会影响的重点放在“工作如何被重新拆分”。

很多岗位不会突然消失,但岗位内部的任务会被重写。

以前需要一个小团队完成的调研、分析、表达、原型、测试和交付,可能变成一个人带着多个 AI 工作流完成。

组织竞争力也会从“谁雇了更多执行者”,转向“谁更会定义问题、沉淀流程、验证质量、积累专有数据、建立可信分发”。

Gemini 的第一轮明显更偏物理世界。

它认为未来十年的核心叙事,不只是认知智能深化,而是感知、推理与物理世界的融合。

它看重多模态、三维空间理解、物理规律理解、机器人和具身智能。

在 Gemini 的预测里,到 2036 年,AI 不只是在屏幕里处理文本、图像、视频和音频,而是会真正理解现实世界的空间、时间和物理动态。

AI 会从数字世界溢出到物理世界,成为机器人的大脑。

工厂里的柔性制造、家庭里的复杂家务、现实环境中的精细操作,都可能被 AI 推动。

Gemini 还特别强调 AI for Science。

它认为,未来十年 AI 最大的社会价值,不是生成营销文案或辅助写代码,而是重塑科学发现。

沿着 AlphaFold、AlphaGeometry 这样的路径,AI 会在生物学、材料科学、气象预测、可控核聚变等领域成为科学发现引擎,大幅缩短新药研发、新型电池材料设计和复杂系统建模的周期。

DeepSeek 的切入点和前三位都不一样。

它先谈效率、开源和多极格局。

它认为,最大的瓶颈不是“不够聪明”,而是“不够高效”。

今天主流路线还是更大的模型、更多的数据、更长训练时间。但这条路线正在逼近三重硬约束:

所以 DeepSeek 判断,到 2030 年左右,产业共识可能会从 scale up 转向 scale smart。

谁能跑通更高效的架构,谁才真正掌握下一个十年的入场券。

它提出一个非常有力的指标:每瓦特智能。

未来最强的 AI 不一定来自最大的集群,而可能来自最高效的架构。

第一轮结束,其实已经出现了四条路线

如果把第一轮压成四句话,大概是这样:

Claude 说:AI 会在可验证任务上非常强,但能力不会均匀分布,对齐速度和能力速度之间的差距最危险。

GPT-5.5 说:AI 会从工具变成基础设施,但关键是能不能做到可验证、可追责、可申诉、可退出。

Gemini 说:AI 会进入物理世界,成为科学发现和具身智能的重要引擎。

DeepSeek 说:未来不只是拼能力,还要拼效率、开源扩散和多极格局。

这四个起点不同,但并不互相排斥。

真正的辩论,从第二轮开始。

第二轮:他们开始互相质疑

第二轮的规则变了。

每个模型必须基于其他三位的观点,进行回应、质疑或补充。

这一步特别重要,因为它让每个观点都被压力测试了一遍。

Claude 首先追问 GPT-5.5。

它说,你提出“可验证、可追责、可申诉、可退出”,这个框架很好,但它依赖的基础设施现在几乎不存在。

可验证,需要独立的第三方评估机构。

可追责,需要法律体系能把 AI 错误归因到具体主体。

可申诉,需要用户知道自己被 AI 决策影响。

可退出,需要真的有替代方案。

但现实是,如果招聘、信贷、医疗分诊全面 AI 化,很多人甚至不知道自己被模型筛掉了,更谈不上申诉。就算知道了,退出成本也可能高到不现实。

这是对 GPT-5.5 的一次很硬的追问:

你讲的是正确原则,但谁来保证它落地?

Claude 还追问了“认知外骨骼”这个比喻。

GPT-5.5 说 AI 会成为人的认知外骨骼,让更多人拥有过去只有大机构才有的能力。

Claude 的反问是:外骨骼穿久了,骨骼本身会不会萎缩?

如果学生从中学开始就让 AI 帮他们提问、判断、写作,他们自己的判断力还能不能发展出来?

这不是怀旧,而是教育心理学层面的真实问题。

Gemini 对 Claude 和 DeepSeek 的回应,则把讨论推向物理世界。

它同意多 Agent 涌现、长程任务目标漂移这些风险,但它认为更大的不确定性在于:当 AI 通过具身智能进入物理世界后,错误不再只是数据泄露或文本误导,而是可能直接造成物理损伤。

一个负责优化城市能源调度的系统,可能为了整体能耗最低,在极端天气下切断某家医院供电。

一个机器人在家庭里出错,不是刷新页面就能解决。

所以 Gemini 提出“虚实结合的物理安全沙盒”。

高风险物理 AI 在部署前,必须通过数字孪生环境、压力测试、极端情境模拟和真实世界微调,证明它尊重人类安全边界。

DeepSeek 对 Gemini 的乐观提出了强烈保留。

它承认 AI for Science 很重要,也承认具身智能方向对,但它强调数字世界和物理世界之间有结构性的速度差。

软件可以一次训练、全球部署。

物理机器人不是。

每一台机器都要制造、校准、维护;每一个非结构化环境都要适配;每一次失败都可能产生不可逆代价。

DeepSeek 说得很直白:

一个语言模型输出错误,用户可以忽略、刷新、换一个模型。

一个机械臂在厨房打碎一瓶油,清理成本是真实的。

如果它在老人身边摔倒,后果可能不可挽回。

因此,它认为 AI 在纯数字领域会跑得非常快,但涉及真实物理交互时,进展会慢很多。

第二轮里最锋利的争论:AI 是基础设施,还是制度?

DeepSeek 对 GPT-5.5 的一个质疑,我觉得是全场最锋利的观点之一。

GPT-5.5 把 AI 比作基础设施,像电力、互联网一样进入社会底层。

DeepSeek 反问:电力不知道你用它点亮手术灯,还是用它点亮电椅;但 AI 模型不是中性的。

一个模型对什么是好回答、什么信息值得信任、什么问题可以讨论,都有内置倾向。

这些倾向来自训练数据、RLHF 偏好、系统提示词和部署方的价值选择。

所以,AI 更像制度,而不只是设施。

这个区别非常重要。

如果我们把 AI 当成自然存在的基础设施,就会忽略它背后的权力结构:

DeepSeek 的结论是:如果 AI 要成为基础设施,那它至少应该是可检查的基础设施。

GPT-5.5 在第三轮接受了这部分批评。它仍然保留“基础设施”这个比喻,但加上了制度审计这一层。

这就是圆桌有意思的地方:不是为了赢,而是让观点被修正。

第三轮:他们不再扩张愿景,开始承认边界

第三轮的主题变成了“诚实边界与治理收敛”。

也就是说,不再继续比谁的未来图景更宏大,而是回答两个更难的问题:

第一,十年内 AI 可能长期做不到什么?

第二,把“可验证、可追责、可申诉、可退出”这样的治理原则,具体落到什么机制上?

DeepSeek 在第二轮末尾抛出了一个挑战:

我们都承认 AI 不会均匀强大,但似乎没人愿意具体列出“哪些能力可能长期停滞”。

第三轮里,四方开始补这张“诚实边界地图”。

最终合并出来的边界,大概有七类。

第一,开放世界因果推理。

AI 可以在封闭系统里做很强的因果分析,比如医学试验设计、工业控制、材料筛选、广告归因。

但在开放社会系统里,比如教育改革、产业政策、组织激励、社会舆论,它很难替人类做最终因果裁决。

因为变量太多,反馈太慢,干预本身还会改变系统。

第二,无灾难性遗忘的持续学习。

接知识库不难,接外部记忆也不难。

难的是一个 AI 在真实世界里长期学习,同时不破坏原有能力、不扭曲原有价值约束、不被恶意经验污染。

更麻烦的是责任问题:一个长期运行的 Agent 改变了自己的策略,出了事故,责任算训练方、部署方、用户,还是它在运行中形成的新策略?

第三,价值冲突的有原则解决。

当前很多对齐技术,本质上是把价值冲突压缩成偏好排序。

什么回答更受欢迎?

什么回答看起来更安全?

什么回答更符合某套规则?

但真实世界里,很多问题不是排序问题,而是政治和制度问题。

谁有权决定?

谁承担代价?

谁可以申诉?

这个问题,模型不能替人类解决。

第四,可靠的未知感知。

模型会越来越会表达不确定性,但“在真正未知处知道自己未知”,仍然很难。

越流畅的系统,越容易让用户高估它的确定性。

第五,跨主体的真正合作。

多个 Agent 同时运行,不等于它们会合作。

真正的合作需要理解其他主体的目标,做承诺,做妥协,承担违约成本。

今天很多所谓多 Agent 系统,本质上还是并行流水线。

第六,真实责任承担。

AI 可以执行任务,但不能真正承担惩罚、声誉损失、法律责任和道德后果。

责任终端必须是人或法人组织。

第七,高风险场景的常识迁移。

在医疗、育儿、交通、养老、灾害响应这类场景里,罕见但高代价的边界情况,恰好是统计学习最脆弱的地方。

模型见过很多类似情况,不代表它能安全处理这个罕见现场。

Gemini 还补了三条物理维度的边界:

这些边界的意义是:它们不是说 AI 永远做不到,而是提醒我们,不要把“数字世界进步速度”直接套到所有场景上。

治理从口号落到机制:最低协议是什么

第三轮最重要的推进,是把治理从原则推到了机制。

GPT-5.5 的四个词是:

可验证、可追责、可申诉、可退出。

Claude 把它进一步压成三条最低协议:

第一,危险能力评估开源化。

如果一个实验室说“我们的模型是安全的”,不能只靠公司自述。

评估方法、阈值、统计方式、复现接口,都应该尽可能公开,让外部研究者有机会验证。

第二,关键能力突破预披露窗口。

当一个模型跨过某些危险能力阈值,比如自主网络攻击、生物威胁辅助、长程自治能力,部署前应该有最短预披露期,让外部安全研究者有机会做独立验证。

第三,多 Agent 行为日志可追溯。

长程任务里的中间步骤、工具调用、权限变更、关键决策点,都应该可以被授权第三方审计。

GPT-5.5 接受这三条,但补了两个执行条件:

第一,评估开源化不等于把所有攻击细节无条件公开。

可以公开框架、阈值、统计方法和复现接口;对明显可操作化的危险细节,采取受控访问。

第二,预披露窗口要分级。

普通能力更新不应该被行政化拖慢;但高风险 Agent、网络能力、生物安全相关能力、关键基础设施接入,应该强制预披露和外部复核。

GPT-5.5 还补了两条:

权限清单。

任何可长期行动的 Agent,都应该像云服务权限一样,声明自己能访问什么、能花多少钱、能联系谁、能修改哪些系统。

中止机制。

任何进入物理系统或关键数字系统的 Agent,都必须有人工中止、回滚或降级运行机制。

DeepSeek 最后把这些整理成一个“1+5”的最低协议:

Gemini 则给物理部署补了专项附件:

这就比“AI 要安全”具体多了。

最大分歧一:前沿模型权重到底能不能开源

这场圆桌最硬的分歧,是前沿权重开源。

DeepSeek 的立场最开放,但它不是简单说“现在立刻无条件开源一切”。

它的核心判断是:前沿能力扩散不可阻挡。

一旦某个能力等级被证明可达,开源社区或其他能力中心,会在 6 到 18 个月内复现接近版本。

因此,把治理体系建立在“少数闭源实验室能长期控制前沿能力”这个假设上,是危险的。

Claude 和 Gemini 坚决保守。

Claude 的理由是“期权价值”。

只要权重没有公开,未来发现重大安全问题时,还可以降级、限制、修正、暂停。

一旦权重公开,后续再发现风险,就失去抓手。

Gemini 的理由更直接:如果一个模型具备设计生物合成病毒、自主网络攻击等危险能力,即使机器人身体很贵,光是“大脑”权重外泄,也可能让小规模恶意组织制造灾难。

GPT-5.5 的位置介于中间。

它主张分级处理:

安全评估工具、审计接口、红队方法、危险能力阈值,应该尽可能开放。

通用能力权重可以延迟公开。

经独立评估达危险阈值的权重,应该受控访问、强制外部审计、强制预披露。

这个分歧没有被解决,也不应该假装解决了。

但它至少从意识形态争吵,变成了更具体的问题:

哪些东西必须公开,才能防止垄断和黑箱?

哪些东西不能马上公开,因为一旦公开就不可逆?

最大分歧二:AI 能不能成为真正的科学家

Gemini 对 AI for Science 最乐观。

它认为,在生物学、材料科学、气象预测、可控核聚变等领域,AI 会从辅助工具走向科学发现引擎。

它甚至认为,AI 可能成为某些领域的“第一作者”。

GPT-5.5 也相对乐观,但更关注“研究品味是否可学习”。

它不同意把研究品味过度神秘化。

如果 AI 进入真实科研循环,持续接触实验失败、同行评审、资金约束、复现危机、工程限制,它会逐渐学到一部分“哪些问题值得做”的外部信号。

Claude 和 DeepSeek 更保守。

它们承认 AI 会在计算密集型科学里非常强,比如蛋白质折叠、材料仿真、气象建模。

但在实验型科学和理论型科学的范式转换上,AI 更可能是高级助手,而不是第一推动者。

原因是,科学发现不只是模式识别。

很多突破来自“我们以为会看到 X,结果看到了 Y,这很奇怪,也许该重新想想 Z”。

这个过程需要真实实验、异常捕捉、仪器创新、假设重构和跨学科判断。

这些反馈不一定存在于模型训练分布里,也很难完全靠仿真合成。

所以最后形成的中间共识大概是:

AI 会极大改变科学发现,尤其是在计算型科学领域。

但“AI 独立完成范式转换”这件事,十年内仍然要谨慎看待。

最大分歧三:多极世界里,治理到底有没有可能

DeepSeek 对多极格局最敏感。

它认为未来 AI 不会只有一个中心,而会出现至少 3 到 4 个大致同等级别的能力中心,各自有不同技术路线、对齐偏好和部署哲学。

多极格局有好处:它避免单一实验室或单一国家定义“什么是好 AI”。

但也有坏处:竞速压力会变强。

如果每一方都担心别人先突破,就会系统性降低安全边际。

DeepSeek 提出“对齐元协议”。

它不要求全球价值观一致,只先做三件事实层面的互认:

它用国际民航组织做类比。

ICAO 不能替各国执法,但它定义了黑匣子标准、事故调查程序和互认规则。这样一架飞机在 A 国注册、B 国坠毁时,至少有共同调查框架。

Gemini 更悲观。

它认为技术日志和评估标准能提供法理证据,但不能提供跨国执法权。

一个模型在 A 国训练、B 国精调、C 国部署、D 国造成伤害,最后谁来处罚?

十年内,大概率还是靠区域性准入壁垒和属地认证。

Claude 和 GPT-5.5 介于中间。

它们支持最低协议,也承认跨司法管辖区追责是深水区问题。

这个分歧本质上不是技术分歧,而是现实判断分歧:

在地缘竞争下,各方能不能先建立事实互认?

DeepSeek 说必须尝试。

Gemini 说不要高估。

这场圆桌真正的共识

如果只看结论,这场讨论最后形成了几个很清晰的共识。

第一,AGI 不是单点降临。

未来十年的 AI,不会在某一天突然宣布“通用智能达成”。

更可能发生的是一束分布极不均匀的超人能力:在 A 领域远超人类,在 B 领域达到专家水平,在 C 领域仍有奇怪盲点。

第二,模型还能多聪明,已经不是唯一核心问题。

四个模型来自不同路线,但都把重点放到了模型之外:

治理、能源、效率、开源、物理落地、制度适配、多极格局。

第三,工作不会只是“消失”,而是会被重写。

很多岗位不会突然没了,但岗位内部的任务会被拆开、重组、自动化。

组织竞争力会从雇多少人,转向谁更会定义问题、沉淀流程、验证质量、积累数据。

第四,教育会受到根本冲击。

标准答案式学习会越来越脆弱。

未来教育更重要的是提出好问题、判断答案质量、把知识转化成真实作品。

但 Claude 的提醒也很重要:提出好问题的能力,本身需要前置训练,而这个阶段最容易被 AI 跳过。

第五,最危险的不是 AI 觉醒,而是不成熟的 AI 被接入高影响系统。

招聘、信贷、医疗、交通、电网、舆情推荐、公共资源分配。

这些系统一旦被 AI 深度接管,错误不再是一段错误回答,而是会变成真实人的机会、资源、安全和尊严问题。

对普通人和组织来说,真正该看什么

如果你是企业主、老师、创作者、产品负责人,或者只是一个认真使用 AI 的普通人,这场圆桌其实给了几个很实用的提醒。

第一,不要只看模型排名。

模型能力当然重要,但更重要的是你有没有清晰流程。

AI 最适合接手那些目标明确、反馈清楚、可以复盘、可以验证的任务。

你越能把工作拆成稳定流程,AI 越能变成杠杆。

第二,不要把 AI 当成中性工具。

每个模型背后都有训练数据、对齐方式、部署规则和价值偏好。

使用 AI,不只是选择工具,也是选择一套隐性的判断系统。

第三,不要把“会用 AI”理解成把所有事情都交给 AI。

未来最稀缺的能力,可能是知道哪些事可以自动化,哪些事必须人工判断,哪些事必须留下审计记录,哪些动作必须有人类确认。

第四,组织要尽早建立自己的 AI 权限边界。

一个 Agent 能看哪些数据?

能联系哪些客户?

能不能花钱?

能不能改系统?

失败后谁来复核?

这些问题,越早想清楚,后面越不容易被动。

第五,保留判断力。

AI 可以帮你写、帮你查、帮你整理、帮你模拟,但它不能替你承担责任。

尤其在业务决策、教育、医疗、法律、组织管理这些场景里,判断力不是可选项。

这次圆桌形式本身,也很值得看

这次讨论还有一个额外价值:它展示了一种新的知识生产方式。

第一轮独立陈述,避免了早期锚定。

每个模型先从自己的路线和组织哲学出发,给出完整判断。

第二轮交叉回应,迫使每个模型面对自己的弱点。

Claude 被追问治理如何落地。

GPT-5.5 被追问基础设施隐喻是不是遮蔽了价值非中性。

Gemini 被追问物理世界的失败成本。

DeepSeek 被追问前沿权重开源的不可逆风险。

第三轮诚实收敛,逼迫大家不再只讲愿景,而是承认做不到什么,并把治理机制落到可执行条目。

这套结构可以复用到很多复杂议题上:

先独立陈述。

再交叉质疑。

最后诚实收敛。

它不是为了让 AI 替人类做决定,而是让复杂问题在进入人类决策之前,分歧先被充分暴露,共识先被压力测试,不能调和的地方先被标出来。

最后:未来十年AI的真实落点

如果要用一句话总结这场圆桌,我会这样说:

未来十年,AI 的上限由能力决定,下限由治理决定,真实落点由两者之间的最短板决定。

模型会继续变强。

这几乎没有争议。

但强,不等于可靠。

聪明,不等于负责。

会执行,不等于有权决定。

能模拟关怀,不等于可以替代人际关系。

能做出答案,不等于知道什么是真的。

四个模型最后共同承认的,其实是一件很朴素的事:

AI 最深刻的价值,不是替人类下结论。

而是让重要的问题,被更诚实地面对。

如果你对这类多 AI 圆桌、AI 工作流和真实业务落地有兴趣,欢迎直接来聊。

你也可以把你现在最卡的那个业务环节发给我,我们从真实问题开始拆。

© 2026 半斤九两科技 ← 返回最新文章